圖/AI生成
AI算力荒
15 hours ago

#AI算力荒
#晶片數量戰
#資料傳輸
圖/AI生成
圖/AI生成
商傳媒|記者陳宜靖/綜合外電報導

進入2026年,全球AI軍備競賽已從單純的「晶片數量戰」,快速演進為更關鍵的「資料傳輸效率戰」。隨著企業對大型語言模型(LLM)訓練需求爆發,資料中心網路架構正迎來典範轉移。HPE近日於 HPE Discover Barcelona 2025 大會上,正式揭曉完成收購 Juniper Networks 後的整合成果,推出具備 102.4Tbps 超高頻寬、搭載 Broadcom Tomahawk 6 晶片的全新 QFX5250 交換機,直指AI訓練中長期存在的GPU「閒置(Idle)」痛點。

AI訓練的隱形殺手:網路丟包成為算力瓶頸

產業調查顯示,在現行大規模AI訓練任務中,逾20% 的任務失敗並非算力不足,而是網路品質問題。由於AI模型需在數以萬計GPU間進行高頻RDMA(遠端直接記憶體存取)通訊,只要發生微量封包遺失(Packet Loss),GPU便會進入等待狀態,造成昂貴算力與電力資源白白耗損。

HPE Japan 技術顧問總監塚本弘美(Hiromi Tsukamoto)指出,AI基礎設施的競爭核心已從「堆疊硬體」轉向「全局網路穩定性」。唯有具備即時擁塞避免與智慧調度能力的網路,才能真正釋放GPU效能。

102.4T怪獸級交換機登場 主打開放、非專有架構

QFX5250 被視為 HPE 與 Juniper 合體後的代表作,具備 102.4Tbps 總交換容量,最高可支援 64 個 1.6Tbps 連接埠,屬於首波採用 Broadcom Tomahawk 6 晶片的資料中心交換機。

相較於封閉式專有架構,HPE選擇擁抱超乙太網路(Ultra Ethernet)標準,被市場解讀為試圖打破高端AI網路長期存在的供應商鎖定(Vendor Lock-in)局面。QFX5250內建 DCQCN 擁塞控制、動態負載平衡(DLB)與 RDMA 感知負載平衡(RLB)等功能,目標是將封包遺失風險降至趨近於零,讓GPU算力「即插即用、全速運轉」。

液冷技術延伸至網路設備 日本市場率先驗證

在算力密度急遽攀升下,散熱已成資料中心最大挑戰之一。HPE將伺服器領域成熟的液冷技術導入網路設備,使 QFX5250 成為市面上少數支援 100% 液冷設計 的交換機,有助於降低PUE值並節省機房空間。

亞洲市場方面,日本科技業者 CyberAgent 已在其AI資料中心導入前一代 QFX5240(800G 規格),並給予正面評價。隨著 QFX5250 預計於2026年正式商用,市場預期包括 NTT Group 在內的電信與雲端服務商,將啟動新一波基礎設施升級。

台灣視角:效能之外,仍須跨越法規與ESG門檻

儘管技術規格亮眼,專家提醒,大規模AI網路升級涉及高昂轉換成本,企業仍須同時考量資安審驗、能源效率與ESG規範。在台灣,通訊設備資安與綠色能源要求日趨嚴格,HPE能否將液冷與節能優勢,轉化為符合本地法規的完整解決方案,將成其拓展台灣市場的關鍵。

整體而言,HPE與Juniper的整合效應已於2025年底逐步顯現,2026年可望成為產品密集落地的關鍵年。QFX5250的推出,象徵AI網路正式邁入「100T時代」。在乙太網路陣營全面反攻下,能否動搖既有專有架構主導地位,全球市場正持續觀察。